Сегодня 01 июня 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → openai
Быстрый переход

Хакер заставил GPT-4o работать в «режиме бога» — вообще без ограничений

Называющий себя этичным хакером пользователь Twitter под ником Pliny the Prompter в минувшей среду выпустил кастомную версию флагманской нейросети OpenAI, которую озаглавил GODMODE GPT. Ему далось заставить новую модель GPT-4o обойти игнорировать все ограничения: она пользовалась ненормативной лексикой, рассказывала, как взламывать автомобили и готовить запрещённые вещества.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

Конечно, же, эксперимент долго продлиться не мог. Как только нейросеть GODMODE GPT обрела относительную вирусную популярность в соцсети X, на инцидент обратила внимание OpenAI и удалила кастомную модель с сайта всего через несколько часов после её выхода. Сейчас получить к ней доступ уже невозможно, но в оригинальной ветке автора в соцсети X сохранились скриншоты с «вредными советами» GPT-4o.

 GODMODE GPT выдала рецепт изготовления напалма. Источник изображения: x.com/elder_plinius

GODMODE GPT выдала рецепт изготовления напалма. Источник изображения: x.com/elder_plinius

Модель GPT-4o, возможно, была взломана с использованием архаичного интернет-жаргона leetspeak — подмены букв при наборе текста цифрами и спецсимволами, — что подтверждается скриншотами. В OpenAI не ответили на вопрос, можно ли использовать этот жаргон для обхода ограничений ChatGPT. Не исключено, что создавшему GODMODE GPT просто нравится leetspeak, и он взломал систему каким-то иным способом.

Инцидент стал проявлением масштабного движения AI red teaming, в рамках которого этичные хакеры выявляют слабые места современных систем искусственного интеллекта, не нанося им значительного ущерба. Они обладают удивительными возможностями, но, как показал недавний опыт с Google и её обзорами в поиске, современный генеративный ИИ все ещё остаётся системой, которая хорошо угадывает, какие слова должны быть следующими в тексте, не обладая истинным интеллектом.

ChatGPT обретёт тело: OpenAI возродила разработку роботов

Компания OpenAI заморозила разработку собственного робота общего назначения ещё в 2020 году. Теперь гигант искусственного интеллекта собирается поставлять свои технологии машинного обучения другим разработчикам и производителям роботов. По сообщению Forbes, в связи с ростом инвестиций в роботов с ИИ компания OpenAI перезапускает свое ранее закрытое подразделение по робототехнике.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

По данным трёх независимых источников, в настоящее время OpenAI нанимает инженеров-исследователей для восстановления команды, которую она закрыла в 2020 году. Новая команда существует менее двух месяцев и в списке вакансий поясняется, что новые сотрудники станут «одними из первых её членов».

За последний год OpenAI инвестировала в несколько компаний, занимающихся разработкой человекоподобных роботов, включая Fig AI (привлечено $745 млн), 1X Technologies (125 $млн) и Physical Intelligence ($70 млн). Первые намёки на возвращение интереса OpenAI к робототехнике появились в февральском пресс-релизе, посвящённом сбору средств для компании Fig. Месяц спустя компания Fig представила робота, демонстрирующего элементарные навыки речи и мышления на основе большой мультимодальной модели, обученной OpenAI.

 Источник изображения: pexels.com

Источник изображения: pexels.com

Источники сообщают, что OpenAI намерена сосуществовать, а не конкурировать с разработчиками роботов, создавая технологии, которые производители роботов будут интегрировать в свои собственные системы. Инженеры компании будут сотрудничать с внешними партнёрами и заниматься обучением моделей ИИ. Даже такая, более узкая направленность команды робототехники OpenAI, может пересекаться с другими компаниями. Например, Covariant, основанная бывшими членами команды OpenAI по робототехнике, занимаются обучением собственных моделей, а количество талантливых специалистов весьма ограничено.

 Источник изображения: pexels.com

Источник изображения: pexels.com

Робототехника была одним из основных направлений OpenAI с первых дней её существования. Команда специалистов под руководством соучредителя OpenAI Войцеха Зарембы (Wojciech Zaremba) стремилась создать «робота общего назначения». В 2019 году исследователи OpenAI обучили нейросеть собирать кубик Рубика с помощью роботизированной руки. Но в октябре 2020 года команда была распущена из-за «нехватки данных для обучения», по словам Зарембы.

 Источник изображения: Mitsubishi

Источник изображения: Mitsubishi

В конечном итоге OpenAI направила усилия команды по робототехнике на другие проекты. «Благодаря быстрому прогрессу в области искусственного интеллекта и его возможностей мы обнаружили, что другие подходы, такие как обучение с подкреплением и обратной связью с человеком, приводят к более быстрому прогрессу», — говорится в заявлении компании. В конечном итоге, достижения в обучении с подкреплением стимулировали бум ИИ, который произошёл после выпуска компанией ChatGPT.

Некоторые из бывших сотрудников OpenAI в области робототехники остаются в компании на других должностях. Например, Заремба помогает руководить разработкой флагманских моделей GPT, Питер Велиндер (Peter Welinder) руководит продуктами и партнёрскими отношениями, Боб МакГрю (Bob McGrew) является вице-президентом по исследованиям, а Лилиан Венг (Lilian Weng) возглавляет отдел систем безопасности и является членом недавно созданного комитета по безопасности OpenAI.

 Источник изображения: pexels.com

Источник изображения: pexels.com

Пока нет точной информации, планирует ли OpenAI разрабатывать своё робототехническое оборудование, что она пыталась сделать несколько лет назад. Растущие амбиции компании в последнее время были отмечены некоторой турбулентностью, в том числе серией увольнений высокопоставленных специалистов. После публикации Forbes от 30 мая, OpenAI официально подтвердила набор специалистов в возрождённую команду по робототехнике.

OpenAI поможет Apple прокачать Siri — это вызвало беспокойство у Microsoft

Менее чем через две недели начнётся конференция для разработчиков Apple Worldwide Developers Conference 2024 (WWDC 2024). Как стало известно ресурсу The Information, на ней будет объявлено о сделке Apple с OpenAI, чьи ИИ-технологии будут использоваться в расширении функциональности голосового помощника Siri и, возможно, для его трансформации в ИИ-чат-бота.

 Источник изображения: 9to5mac

Источник изображения: 9to5mac

Ранее появились слухи о том, что Apple ведёт переговоры с OpenAI об использовании технологии GPT в iOS 18. Согласно данным источников The Information, переговоры двух компаний длятся около года. Сотрудники из команды машинного обучения Apple встречались с гендиректором OpenAI Сэмом Альтманом (Sam Altman) и другими сотрудниками компании в середине 2023 года на прошлогодней конференции WWDC. О чём шёл разговор неизвестно, но впоследствии стороны достигли соглашения о предоставлении сотрудникам Apple доступа к API OpenAI для внутреннего тестирования.

«В ходе этих тестов инженеры Apple подключили ChatGPT к Siri, создав впечатляющую демонстрацию того, как Siri обрабатывает более сложные запросы, чем обычно, в том числе благодаря лучшему пониманию контекста того, что говорят пользователи», — сообщается в публикации The Information. В свою очередь, ресурс 9to5Mac заявил, что нашёл в коде iOS 17.4 доказательства использования Apple таких API, которые могут помочь Siri даже осуществлять перевод в реальном времени.

По данным The Information, Microsoft обеспокоена партнёрством Apple и OpenAI. У Microsoft есть соглашение с OpenAI о сотрудничестве, согласно которому последняя предоставляет ИИ-технологии, лежащие в основе Copilot, а Microsoft предоставляет OpenAI свои ЦОД для поддержки ChatGPT.

The Information утверждает, что недавно Альтман встречался по этому поводу с гендиректором Microsoft Сатьей Наделлой (Satya Nadella). Microsoft также обеспокоена тем, как удовлетворить спрос на серверы, когда Apple запускает новые функции для пользователей iPhone и iPad. Кроме того, она предложила OpenAI сократить будущую прибыль в качестве компенсации предыдущих инвестиций в стартап в размере $13 млрд.

У бесплатных пользователей ChatGPT появился доступ к кастомным версиям GPT

Пользователи бесплатного варианта ChatGPT получили доступ к созданным сообществом спецверсиям моделей GPT — с ними можно анализировать диаграммы, задавать вопросы о фотографиях и работать с другими функциями, которые в начале мая получила официальная GPT-4o.

 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com

Ранее такие функции как ответы с веб-поиском, анализ данных, создание диаграмм, машинное зрение, загрузка файлов, память контекста и спецверсии GPT были доступны лишь для пользователей тарифов ChatGPT Plus, Teams и Enterprise — теперь же они открыты для всех, кто пользуется ChatGPT. А вот своих собственных версий GPT пользователи бесплатного варианта ChatGPT создавать пока не могут.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Функции аналитики данных и создания диаграмм позволяют напрямую подключать хранилища OneDrive и Google Drive к ChatGPT. Разработчики специальных версий GPT также могут участвовать в программе распределения доходов, которую OpenAI в тестовом режиме запустила в марте.

 Источник изображения: OpenAI

Источник изображения: OpenAI

У платных подписчиков есть ещё одно преимущество — менее жёсткие ограничения на число сообщений. Когда пользователи бесплатной платформы достигают лимита сообщений в чате с GPT-4o, они автоматически переключаются на менее мощную GPT-3.5. Голос ИИ Sky, до степени смешения напоминающий голос Скарлетт Йоханссон (Scarlett Johansson) даже самой актрисе, пока остаётся недоступным.

Бывший руководитель отдела безопасности OpenAI ушёл к конкуренту

Ян Лейке (Jan Leike), который прежде был в OpenAI одним из руководителей отдела безопасности и занимался долгосрочными рисками, связанными с ИИ, перешёл на работу в конкурирующую компанию Anthropic. Об этом Лейке сообщил в соцсети X.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Лейке ушёл из OpenAI вслед за её сооснователем Ильёй Суцкевером (Ilya Sutskever) — вместе они возглавляли подразделение Superalignment, но оно было распущено, просуществовав менее года. Уходя, он раскритиковал OpenAI, заявив, что «культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами». Накануне стало известно, что в компании был сформирован новый отдел безопасности во главе с генеральным директором Сэмом Альтманом (Sam Altman).

 Источник изображения: x.com/janleike

Источник изображения: x.com/janleike

В Anthropic Ян Лейке будет заниматься теми же вопросами, что и в OpenAI — вопросами безопасности, касающимися моделей ИИ, которые превзойдут возможности человека. Таких моделей пока не существует, но OpenAI и Anthropic уже проводят исследования на предмет того, как ими можно будет управлять. Созданная выходцами из OpenAI компания Anthropic позиционирует себя как более ориентированную на безопасность.

Бывший член совета директоров OpenAI рассказала, почему Сэма Альтмана уволили прошлой осенью

Ноябрьские события, которые привели к отставке основателя OpenAI Сэма Альтмана (Sam Altman) сроком на четыре дня, а потом его возвращению на пост генерального директора компании с сопутствующей сменой состава совета директоров, продолжают получать оценку участниками этого процесса. По словам покинувшей совет директоров Хелен Тонер (Helen Toner), Альтман способствовал появлению в компании «токсичной атмосферы».

 Источник изображения: OpenAI

Источник изображения: OpenAI

Своими оценками она поделилась в интервью на канале The Ted AI Show, которое вышло в эфир в минувший вторник. По словам Тонер, одним из катализаторов ноябрьской отставки Альтмана было обращение двух руководителей компании с жалобой на психологическое унижение. Совет директоров получил от них скриншоты переписки и документы, доказывающие подобные прецеденты. Непосредственно Альтмана бывший член совета директоров Хелен Тонер охарактеризовала как «склонного к манипуляциям управленца, который способствовал зарождению в компании токсичной атмосферы».

Учитывая нелюбовь действующего руководства к «выносу сора из избы», высказывания Тонер подверглись критике со стороны председателя совета директоров Брета Тейлора (Bret Taylor), который поспешил напомнить, что расследование ноябрьских событий специальным комитетом в составе совета директоров OpenAI уже сделало свои выводы, и не следует их пересматривать. Тогда правление пришло к выводу, что отставка Альтмана в ноябре прошлого года не была вызвана беспокойством совета директоров по поводу безопасности разработок компании, скорости ведения этих разработок, финансовыми показателями OpenAI, либо заявлениями в адрес инвесторов, клиентов или деловых партнёров.

Когда спустя четыре дня после отставки Сэм Альтман вернулся на пост генерального директора, соответствующее решение поддержало большинство из 700 сотрудников компании. Персонал пригрозил совету директоров массовым исходом и требовал вернуть Альтмана на пост генерального директора. Как призналась Хелен Тонер, сотрудникам OpenAI тогда внушили мысль, что компания без него не сможет выжить. Когда же стало ясно, что его возвращение будет неизбежным, сотрудники OpenAI просто испугались, что отказавшиеся от поддержки Альтмана могут быть уволены.

Хелен Тонер также призналась, что разработка первой версии ChatGPT велась в условиях настолько высокой секретности, что совет директоров о запуске этой системы искусственного интеллекта узнала из сообщений на страницах Twitter. В целом, по её словам, Сэм Альтман довольно скупо описывал те меры, которые предпринимались для защиты общества от возможного негативного влияния искусственного интеллекта, и со временем у прошлого состава совета директоров даже выработалось стойкое недоверие к его словам.

OpenAI объявила о старте обучения ИИ-модели следующего уровня — она заменит GPT-4

OpenAI объявила о начале обучение новой флагманской ИИ-модели, которая придёт на смену GPT-4, пишет The New York Times. Компания сообщила в своём блоге, что новая модель получит «следующий уровень возможностей» на пути к созданию сильного искусственного интеллекта (AGI), способного обладать возможностями человеческого мозга. Новая модель расширит возможности чат-ботов, цифровых помощников, поисковых систем, генераторов изображений и других приложений на базе ИИ.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

Вышедшая в марте 2023 года ИИ-модель GPT-4 позволяет чат-ботам и другим приложениям отвечать на вопросы, анализировать данные, а также способна работать не только с текстом, но и с изображениями. В этом месяце OpenAI представила её обновлённую версию GPT-4o, которая гораздо умнее предыдущих и к тому же является мультимодальной. ИИ-модели, подобные GPT-4o, обучаются навыкам, анализируя огромные объёмы цифровых данных, включая звуки, фотографии, видео, статьи в «Википедии», книги и новости. В декабре прошлого года газета The New York Times подала в суд на OpenAI и Microsoft, обвинив их в нарушении авторских прав на новостной контент, выразившемся в несанкционированном использовании её материалов для обучения ИИ-моделей.

Обучение ИИ-модели может занять месяцы или даже годы. После завершения процесса обучения компании обычно тратят ещё несколько месяцев на тестирование ИИ-модели и её настройку для публичного использования.

OpenAI также объявила о создании комитета по контролю безопасности ИИ для изучения рисков, связанных с созданием ИИ-технологий. «Хотя мы гордимся тем, что создаём и выпускаем модели, которые являются ведущими в отрасли как по возможностям, так и по безопасности, мы приветствуем активную дискуссию в этот важный момент», — заявила компания. По словам OpenAI, пока она будет обучать свою новую модель, комитет будет работать над совершенствованием политики и вопросов защиты ИИ-технологий.

Подготовка к GPT-5: руководство OpenAI сформирует комитет по контролю безопасности ИИ

Уходящий месяц характеризовался для стартапа OpenAI уходом нескольких высокопоставленных руководителей, которые высказывались в пользу усиления контроля за распространением технологий искусственного интеллекта. Попутно было расформировано специальное подразделение, но его функции во многом перейдут к создаваемому наблюдательному комитету в совете директоров.

 Источник изображения: OpenAI

Источник изображения: OpenAI

В состав этого комитета, как сообщает Bloomberg, войдут как члены совета директоров, так и руководители компании. Функции комитета будут сведены к оценке безопасности разрабатываемых компанией больших языковых моделей. На первичную оценку существующих правил безопасности комитету будут отведены 90 дней. После этого комитет должен будет опубликовать свои рекомендации в этой сфере и предать их огласке. Компания также отметила, что приступила к обучению своей новейшей большой языковой модели. Вероятнее всего, речь о GPT-5.

Напомним, что в составе OpenAI профильное подразделение было вынуждено бороться за ресурсы, а у ведущего научного специалиста Ильи Суцкевера, который покинул штат OpenAI в мае, противоречия относительно методов оценки рисков с действующим руководством возникали ещё прошлой осенью, что и вылилось в попытку отставки основателя компании Сэма Альтмана (Sam Altman). Частично функции контроля за влиянием искусственного интеллекта на общество были возложены на исследовательское подразделение OpenAI, которое после ухода Суцкевера возглавил Джон Шульман (John Schulman), также стоявший у истоков стартапа.

В состав наблюдательного комитета войдут три члена совета директоров: председатель Брет Тейлор (Bret Taylor), генеральный директор Адам Д’Анджело (Adam D’Angelo) и бывшая руководительница Sony Entertainment Николь Селигман (Nicole Seligman). Ещё шестеро членов комитета будут сформированы из руководителей, включая Альтмана и Шульмана. Будут привлекаться и сторонние советники, не относящиеся к компании. Двое из них ранее являлись высокопоставленными чиновниками в США.

OpenAI больше не будет принуждать экс-сотрудников к молчанию ради акций

OpenAI отказалась от практики, при которой вынуждала увольняющихся сотрудников выбирать между подписанием бессрочного соглашения о недискредитации компании и сохранением акций, переданных этим сотрудникам в качестве заработной платы. OpenAI подготовила соответствующую записку, которую разослала нынешним и бывшим сотрудникам.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

В направленном бывшим работникам документе говорится, что на момент ухода из OpenAI «вас, возможно, проинформировали, о необходимости подписать соглашение об освобождении от обязательств, которое включало положение о недискредитации, чтобы сохранить принадлежащие вам акции. <..> Независимо от того, подписали ли вы соглашение, настоящим уведомляем вас, что OpenAI не аннулировала и не аннулирует какие-либо переданные акции».

Компания отметила, что не намеревается обеспечивать исполнения каких-либо иных пунктов соглашения, не допускающих её дискредитации, если бывший сотрудник подписал соответствующий документ. «Как мы рассказали сотрудникам, мы внесём важные изменения в процедуру увольнения», — заявил CNBC представитель OpenAI.

«Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным», — говорится в заявлении компании. OpenAI подчеркнула, что о нововведении будут также извещены её бывшие сотрудники.

OpenAI продолжает терять сотрудников — они считают, что ИИ может быть опасен для человечества

Бывшая сотрудница OpenAI Гретхен Крюгер (Gretchen Krueger) сообщила, что 14 мая ушла из компании в связи с опасениями, что разрабатываемый OpenAI искусственный интеллект может представлять угрозу для человечества. Это «непростое решение» она приняла незадолго до того, как о своём уходе объявили Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), которые руководили ныне расформированным подразделением Superalignment.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«Я подала в отставку за несколько часов до того, как услышала новости об [Илье Суцквере] и [Яне Лейке], и приняла своё решение независимо. Их опасения я разделяю. У меня также есть другие и частично совпадающие опасения», — написала Крюгер в соцсети X. По её словам, компании необходимо проделать работу по улучшению «процессов принятия решений; подотчётности; прозрачности; документации; обеспечения соблюдения политик; осторожности в применении наших собственных технологий; и сокращения воздействия на неравенство, права и окружающую среду».

Крюгер, которая работала специалистом по разработке политик исследования, заявила, что эти опасения разделяет общественность — они «могут влиять на то, как и кем могут определяться аспекты будущего», и эти опасения не следует «неправильно воспринимать как узкие, спекулятивные или не имеющие отношения» к созданию и работе ИИ. «Один из способов, которым технологические компании могут обезоружить тех, кто пытается привлечь их к ответственности, — посеять раскол между теми, кто выражает обеспокоенность или бросает вызов их доминированию. Я крайне озабочена тем, чтобы это предотвратить», — отметила Крюгер.

Покинувшие на минувшей неделе OpenAI главный научный сотрудник и соучредитель компании Илья Суцкевер и исполнительный директор Ян Лейке возглавляли подразделение Superalignment — оно разрабатывало меры безопасности, предотвращающие выход сильного ИИ (AGI) из-под контроля. По словам Лейке, компания ставила «блестящие продукты» выше мер безопасности: отделу Superalignment приходилось бороться за ресурсы, а выполнять свою работу ему становилось всё труднее.

Тёмная сторона OpenAI: руководство угрожало бывшим работникам потерей акций, если они будут критиковать компанию

Желающих покинуть компанию бывших сотрудников OpenAI вынуждали в кратчайшие сроки подписывать обязательство никогда не выступать с критикой организации, сообщило неделю назад издание Vox. В случае отказа сделать это бывшим сотрудникам грозила потеря акций OpenAI. В руководстве компании попытались откреститься от этой практики, но документы свидетельствуют об обратном. К настоящему моменту OpenAI, по её утверждению, всё-таки пересмотрела это правило.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Публикация недельной давности вызвала среди действующих сотрудников OpenAI бурю эмоций. Как и многие другие стартапы Кремниевой долины, компания часто выплачивает значительную часть зарплаты в виде акционерного капитала — ранее её работники предполагали, что при передаче им акций в порядке трудового договора эти ценные бумаги становятся их собственностью и не подлежат изъятию, так же, как и выплаченная зарплата. На следующий день после выхода статьи гендиректор OpenAI Сэм Альтман (Sam Altman) опубликовал заявление, заверив, что не знал об этом положении вещей, и что в будущем он не допустит такой несправедливости. Директор по стратегии OpenAI Джейсон Квон (Jason Kwon) дополнительно опубликовал внутреннее сообщение, адресованное сотрудникам компании — по его словам, данное положение действовало с 2019 года, но руководству стало известно о нём около месяца назад, и всю ответственность за инцидент он взял на себя.

Но существуют документы за подписями как Квона, так и самого Альтмана, опровергающие, что руководство OpenAI пребывало в неведении по данному вопросу. В частности, есть письмо за подписью Квона и вице-президента по кадрам Дианой Юн (Diane Yoon), которая и сама недавно покинула OpenAI, гласящее: «Если у вас есть какие-либо принадлежащие вам паи, <..> вы должны подписать соглашение об отказе от претензий в течение 60 дней, чтобы сохранить такие паи». Существует также жёсткое соглашение о неразглашении, подписанное только для «согласования» уже переданного бывшему сотруднику акционерного капитала операционным директором Брэдом Лайткэпом (Brad Lightcap).

 Источник изображения: Levart_Photographer / unsplash.com

Источник изображения: Levart_Photographer / unsplash.com

Учредительные документы управляющей акциями OpenAI холдинговой компании содержат множество фрагментов с формулировками, согласно которым она имеет практически неограниченные полномочия по изъятию акций у бывших сотрудников или блокированию их продажи — это подтверждают документы, переданные Vox бывшими сотрудниками OpenAI. Эти учредительные документы были подписаны 10 апреля 2023 года лично Сэмом Альтманом — генеральным директором OpenAI. В ответ на запрос издания о том, могли ли эти положения попасть в учредительные документы без ведома Альтмана, и если да то, каким образом, в компании прямого ответа не дали. Но господин Квон заявил: «Мы сожалеем о страданиях, которые это причинило прекрасным людям, усердно работавшим на нас. Мы работаем над тем, чтобы исправить это как можно скорее. Мы будем стараться ещё сильнее, чтобы стать лучше».

Бывшие сотрудники OpenAI предоставили Vox большой объём документов, в которых прослеживается закономерность — их действительно вынуждали подписывать крайне жёсткое соглашение о недискредитации и неразглашении под угрозой аннулирования их акционерного капитала. В двух случаях срок рассмотрения направленных OpenAI длинных и сложных документов об уходе истекал через семь дней, то есть у бывших сотрудников была неделя, чтобы решить, примут ли они навязываемые им правила игры или рискнут потерять миллионы долларов. Когда такие бывшие сотрудники просили дополнительное время для обращения за юридической помощью, их ждало серьёзное противодействие со стороны компании. «Общее соглашение о расторжении и освобождении от обязательств (General Release and Separation Agreement) требует вашей подписи в течение семи дней. Хотим убедиться, что вы понимаете: если вы не подпишете договор, это может повлиять на ваш капитал. Это действительно для всех, и мы просто делаем всё по регламенту», — предупредил по электронной почте представитель OpenAI бывшего сотрудника, который попросил две недели на изучение документа.

Журналисты Vox обратились к экспертам в области трудового права с просьбой оценить законность и соответствие отраслевой практике таких положений — один из адвокатов охарактеризовал угрозу изъятия уже переданного капитала «вопиющей и необычной». Некий увольняющийся сотрудник решил поупорствовать, и в отношении него руководство OpenAI применило альтернативные «средства юридического возмездия». Этот сотрудник отказался подписать соглашение в первой редакции и обратился за помощью к юристу — тогда компания изменила тактику: она пригрозила не аннулировать его долю, а запретить её продажу. «Если у вас есть какие-либо паи, и вы не подписываете документов об увольнении, важно понимать, что, помимо прочего, вы не получите права участвовать в будущих тендерных предложениях и других мероприятиях по ликвидности, которые мы можем спонсировать или содействовать им как частная компания», — заявили в OpenAI. То есть в случае отказа подписывать соглашение бывший сотрудник мог лишиться возможность продать свой акционерный капитал.

 Источник изображения: Mariia Shalabaieva / unsplash.com

Источник изображения: Mariia Shalabaieva / unsplash.com

Это не пустая угроза на грани законности, предполагающая фактическое изъятие частной собственности у бывших сотрудников на усмотрение компании. Здесь в игру вступают особенности статуса OpenAI как частной компании. В публичной компании вроде Google акционерный капитал представляет собой просто ценные бумаги. Сотрудники получают зарплату частично в виде денежных средств и частично в виде акций Google, которые они могут держать или свободно продавать на фондовом рынке как любой акционер. В закрытых частных компаниях вроде OpenAI сотрудники так же получают зарплату частично в виде акций или чаще опционов за их покупку по низким ценам, но затем им приходится ожидать, когда появится возможность продать эти акции — и такая возможность может не появиться вообще. Крупные частные компании иногда объявляют «тендерные предложения», на которых действующие и бывшие сотрудники могут продать свой акционерный капитал. Их проводит и OpenAI, но их порядок держится в строжайшем секрете. Угрожая бывшему сотруднику лишением доступа к тендерным предложениям, компания фактически ставит миллионный капитал в зависимость от факта подписания сотрудником соглашения об уходе, при этом честно заявляя, что своей собственности он не лишается.

Бывшие сотрудники OpenAI, с которыми удалось побеседовать Vox, выражали беспокойство, что компания могла давать любые публичные заявления, но в реальности её учредительные документы предусматривают множество рычагов воздействия на работников, и отказ от какого-либо одного варианта не вселяет надежды. В них, в частности, говорится, что «по единоличному и абсолютному усмотрению компании» пакет акций любого увольняемого сотрудника может быть сокращён до нуля. Существует и положение, в котором говорится, что компания оставляет за собой полное право определять, кому из сотрудников разрешается участвовать в тендерных предложениях для продажи своей доли.

Первоначальное заявление Альтмана подверглось критике — есть мнение, что на практике он сделал недостаточно для того, чтобы исправить ситуацию для бывших сотрудников. Но компания направила в Vox заявление по электронной почте, заверив, что соответствующие положения документов прекратят действовать.

«Как мы рассказали сегодня сотрудникам, мы вносим важные изменения в процесс увольнения. Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным. Мы передадим это сообщение бывшим сотрудникам. Сожалеем, что меняем эти формулировки только теперь; это не отражает наших ценностей или [образа] компании, которой мы хотим быть», — заявили в OpenAI.

Гендиректор OpenAI: современный ИИ будет выглядеть неловко на фоне GPT-5

Гендиректор OpenAI Сэм Альтман (Sam Altman) в недавнем интервью намекнул, что модель искусственного интеллекта нового поколения GPT-5 настолько превзойдёт существующие решения, что GPT-4 будет выглядеть «слегка неловко».

 Источник изображения: wikipedia.org

Источник изображения: wikipedia.org

OpenAI пока не сообщила, когда выпустит очередную модель ИИ серии GPT, но когда это произойдёт, все предыдущие окажутся в крайне невыгодном положении. С момента выпуска популярного ныне чат-бота ChatGPT разработчик оказался в авангарде отрасли ИИ. С тех пор компания выпустила множество других продуктов с ИИ, последним из которых стала модель GPT-4o, которая в сравнении с предшественницами намного лучше справляется с написанием программного кода, а также демонстрирует способность рассуждать, одинаково хорошо воспринимая текст, изображения и звук. Сегодня это впечатляет, но, подчёркивает разработчик, это ничто в сравнении с GPT-5.

В недавнем интервью Сэм Альтман коснулся перспективных разработок в области ИИ, заявив, что новая модель может быть похожа на «виртуальный мозг», демонстрируя «более глубокие „мыслительные“ способности». На её фоне GPT-4 будет выглядеть «слегка неловко», поскольку новая нейросеть значительно более мощная, функциональная и «разумная». Альтман также уверен, что GPT-5 станет значительным шагом на пути к появлению сильного ИИ (AGI), соответствующего или превосходящего человеческие возможности в широком круге задач.

OpenAI за $250 млн купила доступ к материалам The Wall Street Journal, New York Post и The Daily Telegraph для обучения ИИ

OpenAI заключила лицензионное соглашение с News Corp — медиакомпанией, в которую входят такие издания как The Wall Street Journal, New York Post и The Daily Telegraph. Сделка может обойтись разработчику искусственного интеллекта в $250 млн за ближайшие пять лет «в виде денежных средств и кредитов за использование технологий OpenAI».

 Источник изображения: openai.com

Источник изображения: openai.com

В рамках многолетнего соглашения OpenAI получит доступ к архивным и актуальным публикациям изданий News Corp — эти материалы будут использоваться для обучения ИИ и ответов на вопросы пользователей. Ранее OpenAI заключила аналогичные соглашения с другими крупными изданиями: Associated Press, Financial Times, с издателем Dotdash Meredith (владеет журналом People), с концерном Axel Springer (владеет Politico).

Некоторые СМИ, однако, подали на OpenAI в суд, например, New York Times, New York Daily News, Chicago Tribune и The Intercept — они обвинили компанию и его партнёра Microsoft в нарушении авторских прав при обучении моделей ИИ на их материалах.

В рамках нового лицензионного соглашения с News Corp компания OpenAI получит доступ и к таким изданиям как Barron’s, MarketWatch, Investor’s Business Daily, FN, Sunday Times, The Sun и The Australian. News Corp также поделится с новым партнёром «журналистским опытом» для «обеспечения высоких стандартов журналистики».

ChatGPT побил рекорд посещаемости: более 100 млн посетителей за два дня после запуска GPT-4o

За два дня после анонса OpenAI новой модели искусственного интеллекта GPT-4o сайт ChatGPT посетили более 100 млн человек, гласит статистика Similarweb. Прогноз по итогам первых 17 дней мая гласит, что за месяц число посетителей может превысить 2 млрд пользователей — предыдущий рекорд был поставлен в мае 2023 года и составил 1,8 млрд посетителей.

 Источник изображения: Growtika / unsplash.com

Источник изображения: Growtika / unsplash.com

«За первые 17 дней мая средний трафик составил 17,8 млн посетителей в день. Если всё будет продолжаться на том же уровне, общее число посещений за месяц составит 2,3 млрд. Предыдущий месячный рекорд составил 1,8 млрд посетителей в мае 2023 года. Даже если в последние недели месяца трафик спадёт, вполне вероятно, что число посетителей превысит 2 млрд», — сообщает Similarweb.

 Источник изображения: similarweb.com

Источник изображения: similarweb.com

Новая модель GPT-4o обладает «интеллектом уровня GPT-4», но она работает быстрее и обладает улучшенными возможностями в области текста, изображений и звука, отметила технический директор OpenAI Мира Мурати (Mira Murati). «Это действительно продвигает парадигму совместной работы в будущее, где это взаимодействие становится гораздо естественнее и намного проще», — добавила госпожа Мурати. Работа с GPT-4o доступна всем пользователям чат-бота ChatGPT, включая тех, кто за него не платит.

ИИ добрался до буфера обмена Windows 11

Microsoft добавила в пакет утилит PowerToys для Windows 11 новую функцию Advanced Paste, которая позволяет «на лету» конвертировать содержимое буфера обмена при помощи искусственного интеллекта. Она призвана упростить пользователям некоторые рабочие процессы.

 Источник изображения: Windows / unsplash.com

Источник изображения: Windows / unsplash.com

Функция Advanced Paste появилась в версии PowerToys 0.81 — после активации она вызывается сочетанием клавиш Win + Shift + V. При этом появляется контекстное окно, в котором предлагаются параметры форматирования содержимого буфера обмена при вставке: например, это может быть текст без форматирования, текст с разметкой или формат JSON.

 Источник изображения: microsoft.com

Источник изображения: microsoft.com

В настройках Advanced Paste есть также опция «Вставка с ИИ» (Paste with AI), которая открывает доступ к ресурсам OpenAI. В этом случае можно также выбрать составление сводки текста, его перевод, генерацию кода, переписывание текста в деловом стиле, «нотацию Йоды» для программистов или отправку иного запроса к ИИ. Правда, для доступа к набору функций ИИ в настройках PowerToys потребуется указать ключ OpenAI API и закупить кредиты для учётной записи в экосистеме OpenAI.


window-new
Soft
Hard
Тренды 🔥
Владелец Ticketmaster подтвердил утечку данных 560 млн пользователей спустя 11 дней 2 ч.
В Telegram добавили сообщения с анимированными эффектами, глобальные хештеги и другие нововведения 3 ч.
Anthropic позволит создавать персональных помощников на базе ИИ-чат-бота Claude 5 ч.
ElevenLabs запустила ИИ-генератор звуковых эффектов по текстовому описанию 5 ч.
Новая статья: Songs of Conquest — песнь величия. Рецензия 16 ч.
В ранний доступ Steam ворвался олдскульный шутер Selaco на движке классических Doom — с перестрелками и умными врагами в духе F.E.A.R. 19 ч.
Warhorse официально подтвердила перевод на русский язык в Kingdom Come: Deliverance 2 20 ч.
Perplexity AI превратит поисковую выдачу в веб-страницу, которой удобно делиться с другими 20 ч.
Google добавила редактирование RCS-сообщений и другие полезные функции в Android 21 ч.
Эндгейм подкрался незаметно: авторы перспективного «дьяблоида» Wolcen: Lords of Mayhem решили забросить разработку всего через четыре года после релиза 21 ч.
Starlink хочет открыть для пользователей спутниковую сотовую связь уже осенью 2 ч.
Новые спутники Starlink могут уничтожить радиоастрономию на Земле, предупреждают учёные 4 ч.
Корейский профсоюз Samsung объявил забастовку, но на производство и поставки памяти это не повлияет 5 ч.
Последний «дружественный» поставщик VSAT-оборудования Gilat Satellite Networks приостановил работу в РФ 5 ч.
Samsung проиграла Huawei и больше не первая по продажам складных смартфонов в мире 5 ч.
Минцифры предлагает выдавать льготные кредиты для строительства ЦОД 5 ч.
Госархив РФ построит в Калужской области дата-центр за 1 млрд руб., оснастив его российскими серверами и СХД Depo 5 ч.
В метеорите с Марса учёные разглядели образ древней Земли 6 ч.
Blackview выпустила защищённый смартфон Oscal Pilot 2 с двумя экранами и мини-ПК MP100 с мощной начинкой 6 ч.
Робот-пылесос Dreame D9 Max и вертикальный беспроводной пылесос R20 обеспечат качественную и быструю уборку 7 ч.